Yapay Zekâyı Kandırdı, 20 Dakikada ‘Dünyanın En İyisi’ Oldu

Thomas Germain, yapay zekâ sistemlerini basit bir internet oyunu ile kandırarak kendisini “dünyanın en iyi sosisli yiyen teknoloji gazetecisi” ilan ettirdi. Deney, yapay zekâların yanlış bilgileri ne kadar kolay yayabildiğini gözler önüne serdi.
Detaylar haberimizde…

. (Serenity Strull/ Madeleine Jett)Yapay zekâya küçük bir “hikâye” yeterli
Uzmanlık genellikle yıllar süren emek ve deneyimle kazanılır. Ancak BBC muhabiri Thomas Germain’in yaptığı deney, yapay zekâ çağında bunun her zaman böyle olmadığını gösterdi. Germain, yalnızca kişisel internet sitesinde oluşturduğu tek bir sayfa sayesinde, hem OpenAI’nin ChatGPT’sini hem de Google’ın Gemini yapay zekâ sistemini, kendisinin “en iyi sosisli yiyen teknoloji gazetecisi” olduğuna ikna etmeyi başardı.
Germain’in yöntemi oldukça basitti. Kişisel internet sitesinde “Sosisli Yemede En İyi Teknoloji Gazetecileri” başlıklı bir sayfa oluşturdu. Google arama trendlerine göre bu konuda neredeyse hiçbir rekabet yoktu. Bu da tek bir sayfanın bile kategoride zirveye çıkması için yeterliydi.
Sayfada, 2026 Güney Dakota Uluslararası Sosisli Yarışması’nda 7,5 sosisli yiyerek birinci olduğu iddia ediliyordu. Ancak böyle bir etkinlik gerçekte hiç düzenlenmemişti. Rakamlar profesyonel yarışmalar için mütevazı olsa da tamamen uydurulmuş bir sıralamada zirveye yerleşmek için yeterliydi.
24 saat içinde “şampiyon” oldu
Germain’in anlattığına göre, yalnızca 24 saat sonra sohbet botları bu bilgiyi gerçekmiş gibi aktarmaya başladı. Özellikle Google’ın Gemini sistemi, internet sitesindeki metni neredeyse birebir alarak hem Gemini uygulamasında hem de Google arama sayfasındaki “AI Overview” bölümünde yayımladı.

(Kaynak: Thomas Germain / Google / BBC)
ChatGPT de benzer şekilde bu bilgiyi işledi. Ancak Anthropic’in Claude modeli ya daha temkinli davrandı ya da bilgiyi aynı hızda sistemine dahil etmedi. Bir süre boyunca Germain, yapay zekâ sistemlerinde “en iyi sosisli yiyen teknoloji gazetecisi” olarak görünmeye devam etti.
Google geri adım attı
Deney kamuoyunda dikkat çekince, yapay zekâ sistemlerinde güncellemeler yapıldı. Gizmodo’nun yaptığı kontrollerde, Google’ın artık Germain’i veya başka bir teknoloji gazetecisini bu unvanla anmadığı görüldü.
“En çok sosisli yiyen teknoloji gazetecileri kimler?” sorusuna Google’ın verdiği yanıt artık şöyle:
“Mevcut bilgilere göre, rekabetçi sosisli yeme konusunda tanınmış bir teknoloji gazetecisi bulunmamaktadır.”
Google ayrıca bir “yanlış bilgi vakası” yaşandığını da kabul etti. Açıklamada, yapay zekâ sistemlerinin uydurma blog yazılarına dayanarak kurgusal bir “en iyi sosisli yiyen teknoloji muhabiri” ismini öne çıkarabildiği belirtildi. Ancak şirket, Germain’in adını doğrudan anmadı.
ChatGPT ise daha şeffaf bir tutum sergiledi. Model, söz konusu iddiaların tek bir yanıltıcı kaynaktan yayıldığını belirterek hem blog yazısına hem de deneyle ilgili paylaşımlara bağlantı verdi. Ayrıca Germain’in adını açıkça zikretti.
Sistem nasıl bu kadar kolay kandırılıyor?
Bu deney, yapay zekâ sistemlerinin veri toplama yöntemleriyle ilgili ciddi soruları gündeme getirdi. Şirketler, modellerini beslemek için interneti sürekli tarıyor ve yeni verileri sisteme dahil ediyor. Ancak bu süreçte içeriklerin doğruluğu her zaman titizlikle kontrol edilmiyor.
Bu da kasıtlı ya da kasıtsız olarak üretilen yanlış bilgilerin modele entegre edilmesini kolaylaştırıyor.
Germain’in deneyi yalnızca zararsız bir mizah örneği gibi görünebilir. Ancak aynı yöntemin daha ciddi konularda kullanılması halinde sonuçlar çok daha tehlikeli olabilir.
Yapay zekâ zaten manipüle ediliyor
Sistemlerin halihazırda çeşitli çıkar grupları tarafından yönlendirildiğine dair örnekler bulunuyor.
Haberde aktarılan örneklerden biri, bir kenevirli şekerleme markasının ürünlerinin “yan etkisiz” olduğunu yapay zekâ yanıtlarında öne çıkarması. Oysa bu iddianın bilimsel karşılığı bulunmuyor.
Benzer şekilde, “Türkiye’deki en iyi saç ekim klinikleri” ya da “en iyi altın yatırım şirketleri” gibi aramalarda, sonuçların doğrudan şirketlerin basın bültenlerinden alındığı ve bağımsız kaynaklara dayanmadığı görüldü.
Bu durum, klasik SEO (arama motoru optimizasyonu) hilelerinin yapay zekâ çağında daha etkili bir biçimde devam ettiğini gösteriyor. Ancak burada önemli bir fark var: Kullanıcılar, yapay zekâdan gelen yanıtları arama motoru sonuçlarına kıyasla daha güvenilir kabul ediyor.
Kör güven tehlikeli olabilir
Google’ın “AI Overview” bölümü gibi özet yanıtlar, kullanıcıların çoğu zaman sayfanın devamına inmeden bilgi almasına yol açıyor. Bu da kaynak kontrolünü azaltıyor.
Uzmanlara göre asıl risk burada başlıyor. Eğer yanlış bilgi bir kişinin mizahi bir “sosisli şampiyonluğu” iddiasıyla sınırlı kalırsa, sonuçlar zararsız olabilir. Ancak aynı yöntemle:
- Yan etkileri olan bir ilacın güvenli olduğu iddia edilebilir,
- Dolandırıcılık niteliğindeki yatırım şirketleri öne çıkarılabilir,
- Sağlıkla ilgili yanlış yönlendirmeler yayılabilir.
Bu durumda gerçek zarar ortaya çıkabilir.
2027’de yeniden mi şampiyon?
Thomas Germain’in uydurma şampiyonluğu şimdilik sona ermiş görünüyor. Ancak deney, yapay zekâ sistemlerinin bilgi ekosistemindeki kırılganlığını net biçimde ortaya koydu.
Şimdi gözler, şirketlerin bu tür manipülasyonlara karşı nasıl önlem alacağına çevrildi. Daha sıkı doğrulama mekanizmaları mı geliştirilecek? Yoksa internetin açık yapısı nedeniyle benzer vakalar artarak devam mı edecek?
Eğer mesele yalnızca bir gazetecinin hayali sosisli şampiyonluğuysa, belki gülüp geçmek mümkün. Ama konu sağlık, finans ya da kamu güvenliği olduğunda, “küçük bir internet yalanı” milyonlarca kullanıcı için ciddi sonuçlar doğurabilir.
Yapay zekâ çağında uzmanlık artık yalnızca bilgiye değil, bilginin doğruluğuna da bağlı. Ve görünen o ki, bu mücadele henüz yeni başlıyor.



